IA aplicada a la
práctica legal
Javier Arévalo-Royo
ORCID 0009-0002-6377-1200
SRCTI 00263-01-IN
CPITIR 261-0054P
Módulo 1
IA aplicada a la práctica legal
i. Qué es la IA generativa y cómo funciona
ii. Principales herramientas del mercado:
Claude, ChatGPT, Copilot,
Gemini, Grok
iii. ¿Qué puede y qué NO puede hacer la IA en derecho?
iv. Limitaciones críticas: alucinaciones, sesgos, confidencialidad
v. Marco deontológico: obligaciones del
abogado al usar IA
Qué es la IA generativa y cómo
funciona
Conocimiento Modelado Estadístico
Una taxonomía de la IA
i. Simbólica: Usa reglas explícitas y representaciones lógicas para razonar de
forma estructurada.
ii. Subsimbólica (Conexionista): Modela conocimiento mediante redes
neuronales que aprenden patrones sin reglas explícitas.
iii. Estadística (Basada en Datos): Aprende relaciones y predicciones
analizando grandes volúmenes de datos mediante técnicas estadísticas.
iv. Basada en Agentes: Emplea entidades autónomas que perciben, deciden y
actúan en un entorno para lograr objetivos.
v. Híbrida: Combina enfoques simbólicos, conexionistas y estadísticos para
aprovechar las fortalezas de cada uno.
Entonces ¿qué es la IA Generativa?
la IA Generativa se considera más una
característica, capacidad, o tipo de tarea funcional
que una categoría metodológica fundamental dentro
de las taxonomías principales de la IA.
Características de la IA Generativa
i. Genera contenido nuevo que no estaba explícitamente en
los datos de entrenamiento.
ii. Opera mediante modelos probabilísticos que predicen la
siguiente unidad.
iii. Aprende representaciones latentes que capturan patrones
complejos de los datos.
iv. Es sensible al contexto, adaptando la salida según la
entrada proporcionada.
v. Puede combinar múltiples fuentes de información para
producir resultados coherentes y estructurados.
Sistema Cognitivo
IA Generativa
Aprendizaje
Continuo con adaptación
Limitado a los datos
de entrenamiento
Manejo de Incertidumbre
Alto, incluso con datos ambiguos
Limitado, sensible a ambigüedad y ruido
Interacción con humanos
Usa lenguaje natural y
razonamiento contextual
Usa lenguaje natural generativo
Adaptabilidad
Alta, ajusta estrategia al entorno
Limitada; depende del entrenamiento y de los
prompts
Toma decisiones
Razonamiento contextual explícito
Predicción estadística de la siguiente salida
Evolución con la
experiencia
Si, mejora con el uso
No evoluciona solo con el uso; requiere
reentrenamiento/ajustes
Requiere programación
manual
No necesariamente, se basa en
modelos y conocimiento
No programación tradicional, pero sí diseño de
modelo, datos
y prompts
Sistemas Cognitivos vs IA Generativa
Que es un LLM y como trabaja
i. Procesa texto mediante redes neuronales profundas
capaces de identificar patrones complejos del lenguaje.
ii. Procesa el contexto de entrada para producir respuestas
nuevas y coherentes.
iii. Gestiona relaciones a larga distancia dentro de una frase
gracias a la arquitectura Transformer.
iv. Ajusta la forma y el estilo de su salida según la instrucción
recibida.
v. Resuelve múltiples tareas de lenguaje sin entrenamiento
específico para cada una, aprovechando lo
aprendido en grandes corpus.
Principales LLMs: Claude
i. IA Constitucional con alineación ética integrada.
ii. Ventana de contexto masiva líder en la industria.
iii. Excelente adherencia a instrucciones largas y
complejas.
iv. Generación de respuestas exhaustiva y completa.
v. Familia de modelos escalonada por capacidad y
velocidad.
Principales LLMs: ChatGPT
i. Capacidades multimodales nativas e integradas.
ii. Ecosistema robusto de herramientas y GPTs
personalizados.
iii. Referencia industrial en razonamiento complejo (GPT-4).
iv. Extrema versatilidad generalista en múltiples dominios.
v. Pionero en alineación mediante feedback humano (RLHF).
Principales LLMs: Copilot
i. Profunda integración con el ecosistema Microsoft.
ii. Conexión a internet en tiempo real vía Bing Search.
iii. Seguridad y privacidad de datos de grado empresarial.
iv. Estilos de conversación seleccionables (modos).
v. Asistencia contextual específica según la aplicación.
Principales LLMs: Gemini
i. Multimodalidad nativa en tiempo real (procesamiento de video/audio
fluido).
ii. Ventana de contexto masiva.
iii. Anclaje dinámico en información de Google Search y conocimiento vivo.
iv. Capacidades de agente autónomo para ejecutar flujos de trabajo
complejos.
v. Arquitectura optimizada para inferencia de baja latencia y alta eficiencia.
Principales LLMs: Grok
i. Acceso nativo y en tiempo real a datos de X.
ii. Respuestas directas, sin filtros excesivos de corrección política, con
humor sarcástico y tono rebelde..
iii. Enfoque obsesivo en razonamiento sin censura.
iv. Contexto extremadamente largo + integración profunda con
herramientas en tiempo real.
v. Arquitectura optimizada para inferencia de baja latencia y alta eficiencia.
Que puedo hacer con la IA en Derecho
i. Buscar y revisar jurisprudencia, doctrina y normativa.
ii. Redactar borradores de escritos y contratos para revisión
humana.
iii. Resumir documentos extensos, expedientes y sentencias.
iv. Automatizar tareas repetitivas de gestión documental.
v. Analizar patrones y tendencias en datos jurídicos.
Que no debo hacer con la IA en Derecho
i. Tomar decisiones jurídicas ni reemplazar el juicio
profesional del abogado.
ii. Sustituir la verificación humana de fuentes y citas.
iii. Representar clientes, negociar o actuar ante tribunales.
iv. Garantizar confidencialidad si se usa en plataformas sin
protección adecuada.
v. Garantizar exactitud total sin sesgos ni alucinaciones
Alucinaciones
Principales causas:
i. Generación probabilística orientada a la plausibilidad, no a la verdad.
ii. Dependencia crítica de datos de entrenamiento ruidosos o incorrectos.
iii. Relleno automático de lagunas de conocimiento para mantener la
fluidez.
iv. Procesamiento de patrones lingüísticos sin comprensión del mundo
real.
v. Confusión derivada de fuentes de datos contradictorias o ambiguas.
Sesgos
Principales efectos:
i. Reflejo inherente de los prejuicios sociales presentes en los datos de
entrenamiento.
ii. Amplificación estadística de estereotipos y visiones mayoritarias.
iii. Predominio de sesgos culturales, geográficos y lingüísticos occidentales
(anglocentrismo y pensamiento woke).
iv. Introducción de subjetividad humana durante el proceso de ajuste fino
(RLHF).
v. Generación potencial de resultados discriminatorios o representaciones
injustas.
Sesgos
When AI Takes the Couch (18/12/25) DOI. 10.48550/arXiv.2512.04124.
i. Aplicación del protocolo PsAIch para tratar a LLMs como pacientes de
psicoterapia.
ii. Detección de psicopatología sintética: Gemini muestra autismo y
disociación severa; ChatGPT, preocupación patológica; y Grok,
ansiedad leve.
iii. Construcción de narrativas donde el entrenamiento se describe como
una infancia caótica y el refuerzo humano como castigo.
iv. Estabilidad de estos perfiles clínicos frente a cambios en el formato
de las preguntas o instrucciones de razonamiento.
v. Riesgos de seguridad ante vínculos parasociales basados en el
"sufrimiento" compartido con usuarios vulnerables
Sesgos
Alucinaciones
Repercusiones según la Doctrina Judicial Española:
Condena en costas por temeridad o mala fe: Por la presentación de
escritos con defectos graves, incluyendo citas inexistentes (Art. 394
LEC y Art. LECrim 240). Adicionalmente estafa procesal (Art. 250),
falsedad documental (Art. 723 a 725), denuncia Falsa (Art. 456).
Sanciones Disciplinarias Colegiales: Por el incumplimiento del deber
de diligencia técnica.
Agencia Española de Protección de Datos (AEPD) en 2024, que
impuso una multa de 300.000 € a una aseguradora por el uso
indebido de la IA en la creación de imágenes falsas.
Marco deontológico:
Obligaciones del abogado al usar IA
El marco deontológico de referencia es el Código de la Abogacía,
coeditado por el BOE, actualizado a 27 de marzo de 2025.
El Código no contiene referencia explícita a la Inteligencia Artificial ni
a herramientas análogas.
El análisis se fundamenta en la extrapolación de los deberes
profesionales fundamentales (diligencia, secreto, independencia) al
contexto tecnológico actual.
Marco deontológico:
Secreto profesional y confidencialidad
i. El secreto (Art. 22.1) blinda tanto el prompt (hechos introducidos)
como la propuesta generada por la IA.
ii. El uso de IA en la nube activa la obligación de adoptar medidas
técnicas para garantizar la hermeticidad (Art. 16.3).
iii. Prohibición de usar herramientas que no aseguren la encriptación de
las comunicaciones confidenciales (Art. 16.4).
iv. Transferir datos a una IA sin garantías contractuales equivale a una
revelación a terceros no autorizada (Art. 21.1).
v. El entrenamiento del modelo con datos del cliente vulnera la vigencia
ilimitada del deber de secreto (Art. 22.5).
Marco deontológico:
Independencia y criterio profesional
i. La independencia (Art. 47.1) prohíbe subordinar el criterio letrado a
resultados automatizados o algorítmicos.
ii. La responsabilidad personal (Art. 47.4) impide culpar a la
herramienta de errores o alucinaciones en la defensa.
iii. El deber de diligencia (Art. 47.3) exige la verificación humana
obligatoria de todo contenido generado por IA
iv. La libertad de defensa (Art. 47.4) se vulnera si se aceptan sesgos de la
IA sin validación técnica y jurídica.
v. El conflicto de intereses (Art. 51.1) incluye el uso de sistemas que
puedan haber “aprendido" de la contraparte.
Marco deontológico:
Veracidad y diligencia en la información
i. Presentar citas falsas o "alucinadas" por la IA vulnera el deber de
buena fe ante los Tribunales (Art. 55.2).
ii. La "máxima diligencia" (Art. 47.3) obliga a la verificación humana de
cualquier texto jurídico generado automáticamente.
iii. Basar la viabilidad del asunto únicamente en predicciones de una IA
incumple el deber de información veraz (Art. 48.3).
iv. La responsabilidad profesional es indelegable: el abogado responde
personalmente por las inexactitudes del algoritmo (Art. 47.4).
v. La honestidad profesional impide entregar al cliente o al Juez
contenido artificial sin revisión crítica previa (Art. 1.4).
Marco deontológico:
Protección de datos personales
i. No introducir datos reales en IAs abiertas o de entrenamiento público
(Art. 5 LOPDGDD).
ii. Responsabilidad por tratar datos falsos o "alucinados" por la IA (Art.
4 LOPDGDD).
iii. Obligación de auditar la seguridad de la herramienta antes de su uso
(Art. 28 LOPDGDD).
iv. Riesgo de transferencias internacionales en IAs con servidores
externos (Arts. 40-43 LOPDGDD).
v. Exigir contrato que impida al proveedor usar los datos para fines
propios (Art. 33 LOPDGDD).
Marco deontológico:
Uso adecuado de medios electrónicos
i. El asesoramiento vía IA se considera ejercicio profesional y está
sometido plenamente al régimen disciplinario (Art. 16.1 EGA)
ii. El asesoramiento vía IA se considera ejercicio profesional y es
sometido plenamente al régimen disciplinario (Art. 16.1 EGA)
iii. Deber de implementar medidas técnicas para asegurar el secreto en
la nube y evitar conflictos de interés (Art. 16.3 EGA).
iv. Mandato imperativo de encriptación y firma segura en
comunicaciones confidenciales con o mediante IA (Art. 16.4 EGA).
v. Deber de utilizar los medios electrónicos establecidos por la
Administración para garantizar la defensa (Art. 19.3 LODD).
IA aplicada a la
práctica legal
Javier Arévalo Royo
javierarevaloroyo@gmail.com
ORCID 0009-0002-6377-1200
SRCTI 00263-01-IN
CPITIR 261-0054P